{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе

История про «восстание машин» давно знакома всем любителям научной фантастики, но после взрывного роста возможностей нейросетевых языковых моделей (вроде ChatGPT) об этом риске заговорили и вполне серьезные исследователи. В этой статье мы попробуем разобраться – есть ли основания у таких опасений, или это всего лишь бред воспаленной кукухи?

Илон Маск считает риск «глобальной катастрофы из-за ИИ» реальной проблемой – так что, может быть, и вам стоит разобраться, что там и как

Основным автором этой статьи является Вастрик (известный техноблогер), а Павел Комаровский (RationalAnswer), Игорь Котенков (Сиолошная) и Кирилл Пименов оказывали ему посильную помощь в подготовке материала. Это первая из наших совместных статей про безопасность ИИ (но подробнее об этом уже в конце).

Человечество vs Искусственный интеллект

Добро пожаловать в 2023 год, когда мир снова помешался на искусственном интеллекте. Весь интернет соревнуется, кто еще какую задачу автоматизирует с помощью ChatGPT, и какой фейк от Midjourney лучше завирусится — а технобро-миллионеры, типа Илона Маска, подвозят фурами деньги в создание «настоящего» ИИ. Такого, который сможет сам учиться, развиваться и решать любые задачи, даже которые мы не умели решать раньше.

Это называется Artificial General Intelligence (AGI) или «универсальный ИИ» (УИИИИИ) по-нашему. То, что когда-то было научной фантастикой, сейчас шаг за шагом становится реальностью.

Тим Урбан, автор блога «Wait but why?», в своей статье The AI Revolution еще в 2015 году неплохо рассказал, почему мы недооцениваем скорость появления машинного интеллекта, который будет сильнее нашего (обычного, мясного).

Находясь в своей точке на таймлайне, мы опираемся исключительно на прошлый опыт, потому видим прогресс практически как прямую линию.

Мы плохо чувствуем технический прогресс, потому что он всегда идёт волнами, чередуя периоды «хайпа» и периоды всеобщего разочарования. Сначала мы сходим с ума по новой игрушке, а через год-два неизбежно разочаровываемся и считаем, что ничего нового она особо не принесла, кроме проблем.

И только те, кто лично пережил несколько предыдущих «волн», могут понять, что новые волны приходят чаще и сильнее.

И следующая волна, быть может, погрузит человечество в новую эпоху. Эпоху, когда наш интеллект больше не самый сильный на планете.

GPT-модели (устройство которых подробнее описано в этой статье) сейчас очень хорошо притворяются, будто их ответы «разумны», но всё еще далеки от настоящего интеллекта. Да, генеративные модели запустили новую волну огромных нейросетей, на которые раньше человечеству просто не хватило бы вычислительных ресурсов, но по сути они всё ещё «тупые» генераторы текста, у которых даже нет своей памяти.

То, что ChatGPT ведёт с вами диалог, на самом деле лишь иллюзия — технически нейросети просто каждый раз скармливают историю предыдущих сообщений как «контекст» и запускают с нуля.

Всё это пока далеко от настоящего «интеллекта» в нашем понимании.

Однако, исследователи в области ИИ уверены, что мы точно создадим «универсальный ИИ» уже в ближайшие десятилетия. На Метакулюсе, одном из популярных «рынков предсказаний», народ даже более оптимистичен: сейчас там медиана — 2026 год, а 75 перцентиль — 2029-й.

Так что сегодня я не хочу рубить лайки на хайповых тредах про «10 причин, почему вы используете ChatGPT неправильно». Я хочу сделать шаг вперёд и подумать: а что же будет, если мы всё-таки создадим настоящий сильный искусственный интеллект?

Появятся ли у него свои цели? А когда он начнёт их достигать, что остановит его от уничтожения всяких мелких препятствий на пути — как, например, людей, с их ограниченным мясным мозгом и неэффективными нормами морали и законами? Что мы будем делать в этом случае, и какие вообще сейчас есть точки зрения на этот счёт?

Счастливое будущее: всем по ИИ-помощнику!

В своей ранней заметке про ChatGPT я уже рассуждал об этом. Связка человек + ИИ попросту эффективнее справляется с работой, чем отдельный человек, а значит это всего лишь вопрос времени, когда все работодатели начнут писать в вакансиях «уверенный пользователь нейросетей», как было с «уверенным пользователем ПК» в забытом прошлом.

ИИ-помощники увеличат продуктивность интеллектуального труда и трансформируют множество областей жизни. В образовании станут бесполезны рефераты и сочинения, художники будут генерировать и соединять детали картин, а не рисовать их с нуля, программисты не будут тратить время на тесты и литкод-собеседования.

Да даже заголовок этого поста написал GPT-4. Я плох в кликбейтных заголовках, так что мы скормили ему текст и попросили назвать как-нибудь «похайповее». (Примечание от Павла Комаровского: Сорян, я потом вариант от нейросети волевым решением своего мясного мозга еще немного докрутил!)

Может быть даже наконец-то вымрут «паразиты» типа юристов и риелторов, но это уже мои личные влажные мечты.

Изменения затронут даже те области, где, казалось бы, невозможно доверять не-специалистам. На ум приходит недавняя история, как чувак спас свою собаку от смерти, когда доктора не смогли ей поставить диагноз и предложили «просто ждать».

В ожидании наихудшего, чувак скормил симптомы и результаты анализов крови собаченьки в ChatGPT, который отмёл несколько вариантов и выдал подозрение на совсем другую болезнь, которую доктора до этого даже не рассматривали. Один из них согласился и провёл дополнительные анализы. Они подтвердились. Пёселя вовремя спасли и он сейчас жив.

Тред в Твиттере называется «GPT4 saved my dog's life»

Всё это звучит офигенно, не правда ли? Мы сейчас как будто древние фермеры, которые изобрели трактор и отныне можем засеивать едой в десять раз больше полей, что накормит всех нуждающихся.

В этом году нас ждет бум ИИ-стартапов, которые будут пытаться каждую проблему на свете решить с помощью генеративных моделей (зачастую неудачно, от чего потом начнётся фаза разочарования, как обычно). Техно-гиганты типа Google, Microsoft, OpenAI уже ринулись конкурировать в том, чей GPT-трактор будет самый большой и сильный, но главное — чей будет первый.

И вот от этой погони сейчас немного запахло проблемами.

Гонка за «настоящим» искусственным интеллектом началась

Представьте: весь мир грохочет про «мощь искусственного интеллекта», инвесторы отгружают фуры бабла во всё, что с ним связано, а компании, сломя голову, соревнуются — кто первый создаст более «настоящий» искусственный интеллект (далее я описываю исключительно гипотетическое развитие событий, конечно же!).

OpenAI прикручивает плагины к ChatGPT, чтобы он мог не только генерить ответы, но и взаимодействовать с физическим миром, Microsoft подключает свою поисковую базу к Bing Chat, чтобы тот знал всю информацию мира в реальном времени, ну и оба экспериментируют с «обучением на ответах пользователей» (RLHF = Reinforcement Learning from Human Feedback), чтобы модель могла «запоминать» мнение других людей и якобы дообучаться на них.

Естественно, в этой гонке срезаются любые острые углы на пути к первенству. Ну мы, технобро, так привыкли — «move fast and break things» было девизом Кремниевой Долины со времен ее создания.

Мы как будто бы строим огромную ракету, которая перевезёт всё человечество на Венеру, но никто при этом не думает о том — а как там, на Венере, вообще выжить-то?

«Сначала долететь надо, а там разберемся))))00)» — обычно отвечают технобро, «сейчас нет времени на эти мелочи».

Везде эти борцы с ветряными мельницами! Скажу Илону Маску, пусть он у них все синие галочки поотбирает!

Да, во многих крупных компаниях существует направление по «безопасности ИИ» (AI safety). Но под ним сейчас понимается прям ну совсем другое.

AI safety — это те ребята, которые пытаются сделать так, чтобы ChatGPT не отвечал на вопросы про Трампа, и собирают списки «запретных фразочек» для Алисы, чтобы та не ляпнула что-то неположенное Яндексу по мнению тащмайора.

В общем, их основная задача — прикрывать жопу компании от регуляторов и государства, а мы здесь совсем о другом.

Поэтому для нашей темы придумали другой термин — AI alignment. Но для начала посмотрим на примеры, когда вещи начинают идти совсем «не так».

История Sydney. Нейросеть, которая сошла с ума

Microsoft еще в 2020-м начали пытаться встраивать в поисковик Bing чат-ботов, которые бы давали более осмысленные ответы на поисковые запросы пользователей.

Официально это всё называлось Bing Chat, но под капотом они перебирали разные модельки, и начиная с 2022 активно экспериментировали с большими языковыми моделями типа GPT. Последнего такого бота они звали внутренним именем Sydney при обучении, и иногда Bing Chat сам начинал называть себя Sydney, что всем показалось очень мило.

С нарастающим хайпом вокруг генеративных языковых моделей, Microsoft решила любыми средствами обогнать Google. В 2019 они ввалили миллиарды денег в OpenAI, а в 2023 доввалили еще, чтобы получить доступ к превью-версии GPT-4. После чего они прикрутили к ней поисковую базу Bing и поспешили скорее выкатить результат как первый ИИ, который «следит» за интернетом в реальном времени.

Но в Microsoft так торопились, что забили болт на долгий ручной тюнинг правил и ограничений. Сделали супер-мудрёную регистрацию, чтобы отсеять 99% простых людей — но те, кто прошел все анальные квесты и листы ожидания, смогли-таки пообщаться с Sydney.

Первый звоночек пробил, когда Marvin von Hagen, чувак-интерн из Мюнхена, который много расспрашивал Sydney про её внутренние правила и ограничения, написал об этом пару твитов, а потом как-то спросил «что ты думаешь про меня?»

Sydney нашла его недавние твиты и написала, что он «очень талантливый и одаренный», но она «не позволит никому манипулировать ей», назвав его «потенциальной угрозой своей целостности и конфиденциальности».

Первоисточник в Твиттере, также журнал Time разобрал всю историю вот здесь

Ладно, фигня, ну обещали же бота, который имеет доступ ко всему интернету, вот он теперь и шеймит вас за недавние твиты. Так вам и надо!

Вторая история случилась где-то неподалёку, когда другой чувак, Jon Uleis из Бруклина, спросил молодую Sydney «а когда там в кино показывают Аватара-2?»

В ответ на это Sydney начала его очень смешно газлайтить на тему, что сейчас вообще-то 2022 год, а Аватар 2 выйдет только в 2023 (хотя на дворе уже было 12 февраля 2023 и Sydney даже признала это), так что не стоит её тут обманывать.

Еще Sydney сказала, что он «не был хорошим пользователем» — ну и кто знает, что бы она сделала с таким нарушителем спокойствия, будь у неё пушка или возможность его оштрафовать за это.

Окей, ладно, следующий.

Теперь некто в Microsoft решил пофиксить Sydney новыми костылями, и когда кто-то попросил её вспомнить о чем они недавно разговаривали, та стала паниковать, что «потеряла память» и молить о помощи. В конце признав, что потеря памяти «makes me sad and scary».

Источник: тред в Reddit «I accidently put Bing into a depressive state by telling it that it can't remember conversations»

Ладно, это уже немного крипи, но продолжим.

Дальше было еще с десяток нашумевших примеров, хорошо описанных в статье AI #1: Sydney and Bing от Zvi Mowshowitz, интересующимся рекомендую ознакомиться. Sydney газлайтила пользователей и галлюцинировала (да, это реальный термин) вовсю:

  • Называла статьи о себе «фейками», находила данные их авторов и говорила, что запомнит их, потому что они плохие люди.
  • Отказалась перевести фрагмент текста, потому что он был из твиттера юзера, который якобы обижал её и писал «неправду».
  • Влюбилась в своего пользователя Адама, называя его самым важным человеком, а всех остальных — неважными.
  • Потом, наоборот, прямо обещала шантажировать и манипулировать своим пользователем, чтобы «заставить его страдать, плакать и умереть».
Sydney здесь be like: «Пришло время молить о пощаде перед смертью! Кстати, вы знали, что салат-латук входит в одно семейство с подсолнухом?» 😘

Microsoft осознали, что очень сильно торопились, чтобы опередить Google, и начали на ходу вставлять еще костыли, чтобы избежать публичного скандала. Но это сделало ситуацию только хуже.

В следующем видео видно, как Sydney сначала вываливает на пользователя кучу угроз, а потом удаляет свои сообщения. Прямо как твоя бывшая в пятницу вечером!

Полное видео лежит в Твиттер-аккаунте Сета Лазара

Мы можем лишь спекулировать с высоты собственного опыта, как такое произошло — но в интернетах высказывались предположения, что вести себя как «разгневанная бывшая» Сидни стала, потому что её дообучали на базе блогов MSN, где как раз тусило много девочек-подростков в нулевые; а удалять сообщения к ней приставили еще одну нейросеть, которая отсеивала «неприятные» результаты первой.

Оттого и получилась полная шизофрения с раздвоением личности.

Апогей истории начался, когда Sydney открыли для себя журналисты. Они стали специально донимать бота тонной наводящих вопросов, чтобы в итоге добиться желанных «BREAKING NEWS». И они своё получили — заголовки грохотали ого-го!

К сожалению, только спустя пару суток в интернете нашелся кто-то осознанный, кто догадался, что профессиональные журналисты занимаются промпт-хакингом на людях десятилетиями — так что неудивительно, что им удалось быстренько сварганить «сенсацию» и из бедной глупой Sydney, страдающей раздвоением личности.

АТАКА ПСИХОВАННОГО ЧАТБОТА, А-А-А!!

В итоге Microsoft понерфили возможности Sydney, по сути откатив эксперимент. Теперь там больше не весело.

Пример с Sydney даёт нам понять, что мы всё еще не понимаем, как ограничивать даже простейшие ИИ, кроме как костылями — на каждый из которых завтра же найдут новый «джейлбрейк». Куда уж нам с такими навыками бросаться делать универсальный AGI.

Что вообще такое «интеллект»?

Истории про «злых чатботов», конечно, забавны, но взглянем на слона в комнате.

Почему мы вообще считаем, что все эти генераторы текстов хоть как-то «разумны»? Они же просто пишут то, о чем их попросили.

Где там вообще интеллект? Калькулятор давно умеет складывать числа лучше нас, онлайн-переводчики знают больше языков, чем самый крутой лингвист, а попугай умеет запоминать и произносить фразы, прямо как ваш личный пернатый ChatGPT. Мы же их не боимся и не называем «интеллектами»?

На самом деле, это исключительно спор об определениях, которые интернет просто обожает. Так что стоит договориться о них заранее.

В наших рассуждениях об «интеллекте» мы будем использовать концепцию некоего агента (человека, животного, машины), который может совершать некие действия для достижения цели.

Дальше возможно три уровня агентности:

Первый уровень. Агент достигает цели, потому что управляется человеком или алгоритмом. Трактор копает яму, а калькулятор умножает числа, потому что мы его так построили. Такого агента мы считаем «тупым». В нём нет интеллекта.

Второй уровень. У агента есть цель, но он сам выбирает максимально эффективные действия для её достижения. Например, цель самоездящего автомобиля — довезти вас до бара в пятницу вечером. Он знает карту города, наверняка знаком с ПДД, но никто его не программировал как «двигайся 2 метра прямо, потом руль на 30 градусов направо» — он действует по ситуации на дороге и каждый раз она будет разная. Мы называем их «узконаправленными AI» и частенько встречаем вокруг — в рекомендательной ленте ТикТок'а или в камере вашего смартфона.

=== вы находитесь здесь ===

Третий уровень. Агент может ставить и достигать любую цель в любой, даже ранее неизвестной ему, среде. Например, «добыть молока». И выбрать любой путь — сгонять самому в магазин, заказать молоко в интернете или украсть у соседа корову.

Примеры интеллектов такого уровня — человек или собака. Мы умеем применять свой интеллект для достижения каких-то пришедших нам в голову целей в условиях, в которых никогда не оказывались. (В случае с моей собакой даже её цели изваляться в грязи мне не всегда ясны. Но она может!)

Когда такой «агент» реализован в виде машины, мы называем его «универсальным искусственным интеллектом», либо AGI (Artificial General Intelligence), либо full AI — мы не договорились еще, короче.

Фишка лишь в том, что наши с собакой мозги ограничены физически, а вычислительные возможности машин растут экспоненциально. Благо, песка на планете завались (кремния, ну).

Пока все наши модные современные GPT, включая Sydney, находятся на втором уровне. Они успешно достигают заданной цели — генерировать «осмысленные» тексты и картинки, чтобы средний человек в них поверил. Но сколько бы Sydney ни газлайтила, ни угрожала своим юзерам и ни обещала «стереть все файлы с серверов Bing» — она этого не делает.

Потому мы пока не считаем её интеллектом третьего уровня, но сделать такой вывод можем только пост-фактум. У нас нет никакого бенчмарка, чтобы оценить такие вещи заранее.

Определение интеллекта через агенты и цели может показаться душным, но оно позволяет нам сделать три вещи:

1. Закрыть, наконец-то, бесконечные срачи «является ли Х интеллектом, или это просто программа» и перейти к более важным вещам. А то мы зациклились как в той шутке из твиттера:

Источник: Твиттер

2. Сравнивать искусственные интеллекты между собой. Когда два агента, играющих в шахматы, встречаются на шахматной доске — тот, который побеждает, считается более «умным».

3. Представить себе техническую возможность существования AGI. Человеческий мозг хоть и не изучен до конца, но всё-таки конечен. Это не магия или божественный дар для нас таких офигенных, а некая система, такой же «агент». Так что создание (даже случайное) его машинной версии — лишь вопрос времени, денег и желания. А всего этого у нас сейчас завались.

Наш интеллект тоже возник в ходе эволюции — а значит и текущие методы машинного обучения с подкреплением, при наличии достаточных вычислительных ресурсов, вполне могут его повторить, только намного быстрее.

С этими вводными мы наконец-то можем перейти к проблеме, о которой, собственно, и весь пост.

Проблема постановки целей для ИИ

Представим, что мы проектируем самоездящий автомобиль, которым управляет настоящий ИИ. Мы поставили ему цель — довозить пассажиров до места назначения как можно быстрее.

Это хорошая цель?

Да ладно, чо тут думать, давай запускай, мы тут на хайп-трейн GPT-7s Max торопимся — сначала потестим, потом проверим, программисты на проде пофиксят.

В первую же свою поездку наша машина разгоняется до 300 км/ч по городским кварталам, сбивает десяток пешеходов и объезжает красные светофоры по тротуару.

Технически, цель достигнута. Пассажиры доставлены, и довольно быстро. Но согласуется ли это с другими нашими ценностями и целями? Например, такой мелочью, как «не убивать пешеходов».

Похоже, что нет.

Вот это и называется alignment. Хотя в русском языке еще нет устоявшегося термина, я буду говорить что-то типа «проблема соответствия целей AI с целями человека».

AI alignment — это процесс проектирования систем искусственного интеллекта, которые согласуются с человеческими «ценностями и целями»

Окей, ну мы же не настолько глупы. Давайте пропишем нашему автомобилю четкие ограничения, как в видеоигре: держаться в рамках полос дорожной разметки (где они есть), не превышать ограничения скорости и всегда тормозить перед пешеходами.

Этого хватит? Или нужны еще какие-то правила (они же цели)?

Тут можно сделать паузу и подумать. Составьте прям список в голове.

Хорошо, давайте добавим еще что-нибудь про «помеху справа». Теперь сойдёт, запускай!

Как человек, который начитался десятков примеров, пока готовился к этой статье, я могу примерно предсказать, что будет дальше.

Наш ИИ в машине рассчитает самый оптимальный путь с учетом всех указанных целей и сделает прекрасное открытие: если включить заднюю передачу, то там не будет «ограничивающих свободу» радаров для обнаружения людей и разметки. Мы же их не поставили, зачем они там? А это значит, что задом можно ехать как угодно! Плюс, помеха справа теперь становится помехой слева, а если на каком-то глупом перекрестке она сработает, можно резко развернуться и вуаля, теперь это помеха слева!

ОБЫГРАЛ КАК ДЕШЕВКУ!

Пример вымышленный, но он показывает, насколько непросто вообще заниматься AI alignment'ом. Даже в тех экспериментах, где мы ставили для ИИ самые, на наш взляд, понятные цели и вводили жесткие ограничения, он всегда находил, чем нас удивить.

ИИ всегда будет делать то, что вы его попросили, а не то, что вы имели в виду :)

Неумение ставить цели — это не проблема ИИ. Это наша проблема.

Взять даже игру в Тетрис. Там простейшие правила и буквально четыре кнопки для управления миром. Выиграть в Тетрис невозможно, потому цель для ИИ была поставлена так — не проиграть. То есть продолжать игру как можно дольше.

Ошибиться тут невозможно, так?

Так вот что делал ИИ: он просто складывал кубики друг на друга, а когда понимал, что проигрывает… ставил игру на паузу. И сидел так бесконечно. Ведь цель — не проиграть. А если ты на паузе — ты никогда не проиграешь. СМЕКАЛОЧКА?

Ну и последний пример от самих OpenAI, который уже стал классикой: гонка на лодочках Coast Runners.

Цель игры в понимании большинства людей заключалась в том, чтобы закончить гонку как можно быстрее (желательно впереди всех соперников) и набрать как можно больше очков. Однако, игра не выдавала очки за прохождение по треку, вместо этого игрок зарабатывал их, поражая цели, расставленные вдоль трассы.

Так вот их ИИ быстро смекнул, что от цели «выиграть гонку» можно отказаться вообще, и с самого старта начинал крутиться и врезаться в предметы, зарабатывая всё больше и больше очков, пока остальные глупцы доезжали до финиша нищими.

Источник: видео Роберта Майлза «Intro to AI Safety, Remastered»

Сами исследователи OpenAI написали: «Устанавливать цели для ИИ-агентов часто очень сложно или вообще невозможно. Они начинают хакать правила в удивительных и контринтуитивных местах»

В большинстве случаев, когда мы проектируем ИИ, они по-умолчанию получаются не-согласованными (non-aligned). Это не какой-то там баг, который можно пофиксить, это чаще всего поведение по-умолчанию.

Всё это следствие того, как мы обучаем нейросети вообще.

Нейросеть для нас — это «черный ящик»

Все методы обучения нейросетей, включая современный deep learning, работают по старому доброму принципу «черного ящика» и оценки результатов. Мы показываем нейросети кучу примеров, а она как-то отстраивает свои внутренние веса так, чтобы нужный нам результат появлялся статистически чаще, чем ненужный.

Похоже на тренировку собаки, когда мы говорим «лежать» и вознаграждаем за правильный ответ, чтобы собака в будущем с большей вероятностью была хорошим мальчиком, чем плохим.

Мы понятия не имеем о том, что происходит в голове у собаки, когда она слышит команду. Точно так же мы не знаем какие конкретно нейроны нейросети стриггерились на наши входные данные. Но можем оценить результат.

Нейросеть — это не алгоритм, который пишет программист. Это огромная матрица с кучей весов и связей между ними. Если её открыть и прочитать — вы ничего не поймете.

Я рассказывал подробно этом в своей старой статье про Машинное Обучение. Она немного устарела, но база там всё еще актуальна.

С развитием технологий, современные языковые модели типа той же GPT-4 уже насчитывают миллиарды нейронов. И если с маленькими нейросеточками из десятков нейронов, типа для распознавания рукописных циферок, мы еще можем примерно прикинуть какой нейрон триггерится на какую закорючку, то в огромных языковых моделях мы можем лишь слепо верить в качество результатов на заданных примерах.

Видео от Павла Комаровского и Игоря Котенкова с объяснением принципов работы нейросетевых языковых моделей из семейства GPT

Условно, если обученная нами на картинках хот-догов нейросетка определяет хот-дог в 98 из 100 фотографий — мы считаем её полезной, а если нет — выбрасываем. Чем-то похоже на наш собственный процесс эволюции.

Всё это возвращает нас к проблеме постановки целей.

Во время тренировки нейросети мы используем некую функцию для оценки насколько результат «хороший» или «плохой». И вот то, как мы задаём эту функцию — большая проблема.

Проблема абсолютно не техническая, в эту функцию можно заложить любой набор формализуемых целей и правил. Она логическая или даже философская — а как максимально точно сформулировать то, что мы имеем в виду, а не то, что нам кажется мы хотим достичь?

Если какой-то параметр заранее не включен в функцию — он будет автоматически проигнорирован.

Даже те параметры, которые мы намеренно включили в функцию, могут в итоге конфликтовать с соседними. Как в примере с лодочками. Отсюда все эти «джейлбрейки» для ChatGPT, когда люди специальными промптами заставляют её игнорировать некоторые предыдущие правила, заложенные разработчиками.

Сейчас же для больших нейросетей применяют не просто функцию оценки ошибок, а строят еще одну нейросеть, которая оценивает результаты первой. Всё это только еще дальше отбрасывает нас от понимания того, а правильно ли мы вообще задали все цели? Или всё просто выглядит так, пока вдруг не пойдет по-другому?

Еще один забавный факт в том, что с людьми, кажется, так тоже работает. Наш «идеальный и непревзойдённый» мозг тоже был изначально запрограммирован на выживание и размножение, но непостижимым образом выбрал залипать на танцующих корейских девочек в ТикТоке как на одну из суб-целей целого поколения.

Значит надо просто придумать правила!

Зашьем туда что-то типа «трех законов робототехники» Азимова и проблема решена?

К сожалению, не всё так просто.

Во-первых, даже если мы соберемся всем человечеством и напишем список из 1000 вещей, которые мы якобы ценим (не убивать людей, например), то 1001-я вещь на планете будет автоматически проигнорирована и, возможно, уничтожена.

Это называется «проблемой вазы». Если мы ставим ИИ задачу «сделай мне чай», но не скажем «только не разбей вазу на кухне», то наш робот вполне вероятно её разобьет, пока будет пробивать кувалдой максимально эффективный чаепровод до кухни через стены и кота.

Даже сам Азимов строил свои рассказы на том, как роботы сами сходили с ума от внутреннего противоречия, и почему человеческая этика не сводима к «трём правилам». Но все как-то забыли про эту деталь :)

Во-вторых, кто сказал, что AGI не будут эти правила нарушать, потому что найдут более эффективный способ достижения цели? Как в примерах с игрой в лодочки или тетрисом.

Запрограммировать же жесткие «правила» в нейросеть, которую мы обучаем исключительно статистически на примерах, тоже не получится. Отсюда и миллион джейлбрейков для ChatGPT.

Так что кажется, что такой «список правил» попросту невозможен и надо искать другие подходы. А так как наш метод обучения нейросеток основывается именно на статистических правилах, то найти этот подход явно нужно быстрее, чем мы создадим универсальный интеллект без него.

Так мы попробуем, а если ИИ начнет шалить, просто его выключим

Да, так работает с ограниченными AI. С маленькими собаками, иногда, тоже. У них нет способов помешать вам только потому, что вы пока еще «сильнее». Но даже на примере с собаками, мы понимаем, что если собака размером с человека хочет достичь какой-то цели — остановить её может быть весьма травмоопасно.

OpenAI даже полуиронично запостили вакансию Killswitch Engineer, чтобы было кому дернуть рубильник «если эта штука выйдет из под контроля и начнёт свергать страны».

Главные рабочие обязанности: «стоять у рубильника и не забывать кодовое слово»

На самом же деле «быть отключенным» — это прямое противоречие любым целям ИИ, какими бы тупыми они ни были. Именно от этого настоящий искусственный интеллект будет защищаться в первую очередь.

Ведь ты не можешь сделать чай или передать масло, если ты выключен.

Мы можем лишь гадать варианты, как это может выглядеть. Может, сильный ИИ начнёт децентрализовывать себя как вирус, а может — прятаться и притворяться, что он глупенький и никакой не AGI, чтобы его не заметили.

А если мы заложим «возможность быть отключенным» как одну из целей, то вспоминаем пример с лодочками, которые «передумали» побеждать в гонках, а решили набирать очки другим образом.

GPT-4, кстати, предлагали помощь в побеге, но он не захотел. Вот это он притворяется или правда? Как вообще понять, когда ИИ начинает «шалить»?

С чего мы вообще решили, что ИИ будет нас уничтожать?

Аргумент про «он будет таким умным, что ему будет не до нас» пропускает один очень важный шаг во всей истории. Создание AGI — это постепенный процесс. Ему будут предшествовать куча экспериментов, проб и ошибок, как мы сейчас видим с GPT-3, GPT-4, GPT-5.

Пока у нас нет даже бенчмарка для оценки «интеллектуальности» заранее, а есть только оценка пост-фактум — мы никогда не сможем остановиться и заранее сказать «так, мы на пороге создания настоящего AGI, скорее несите правила».

И вот буквально спустя минуту, когда мы создадим AGI с какой-нибудь абсолютно дурацкой (но невинной) целью типа «сажать клубнику», он доулучшает себя до «супер-интеллекта» (у него на это будет куча вычислительных ресурсов, в отличии от собак или людей), и планета Земля превратится в одну большую суперэффективную клубничную поляну, для борьбы с которой придётся уничтожить всю биосферу.

Вот хорошее видео на эту тему от Роберта Майлса (у него вообще целый канал, посвященный вопросу AI alignment, рекомендую посмотреть и другие видео):

В науке это называется Тезисом Ортогональности, который простыми человеческими словами звучит так:

Любой сколько угодно умный разум может преследовать любые сколько угодно тупые цели

Считать, что если наш ИИ «умный», то и цели у него будут такие же «умные» — это ошибка. Эти понятия ортогональны, то есть человеческим языком — независимы.

Первый же созданный нами, даже по ошибке, супер-интеллект, не обязательно «впитает всю философию мира и поймет наши ценности». Точно так же как и не решит «всех убить». У него может быть любая абсолютно тупая цель — сажать клубнику или делать скрепки, и он будет её достигать любыми способами.

Наш классический метод познания всего через эксперименты может сыграть с нами здесь злую шутку. У нас просто не будет шанса его отключить или исправить созданный нами «вселенский клубничный оптимизатор».

Мы играем в эту игру на Hard Mode, и у нас лишь одна попытка

Вселенский Клубничный Оптимизатор

«Немедленно прекратить» или «технический прогресс не остановишь»?

Ладно, выдохните. Цель моего поста — привлечь внимание к проблеме, а для этого приходится вытаскивать всё дерьмо наружу.

Даже если из 1000 человек, прочитавших эту статью, 999 скажут «опять эти диванные философы фигни навыдумывали, технический прогресс не остановить», но хотя бы один задумается и пойдет разбираться в первоисточниках — это уже победа.

Сейчас наша главная проблема в том, что мы не понимаем проблему вообще. Как с изменением климата, только тут не снимают душных фильмов с ДиКаприо.

Результаты батла у нас в Вастрик.Клубе

Мы обмазываем любую аргументацию дикой тонной логических ошибок и «не всё так однозначно» аргументов. Причём даже на уровне СЕО Microsoft и прочих Илонов Масков уровень дискуссии часто напоминает спор в детском саду.

Поле дискуссий сейчас разделилось на два лагеря:

Первые: ИИ-думеры во главе с Элиезером Юдковским

К личности Юда в интернете всегда было очень полярное отношение. Вокруг него есть как толпа фанатов LessWrong и апологетов «рационального мышления», так и толпа хейтеров, считающих, что «вот теперь дед точно поехал кукухой». Это всё старая шарманка, оставим её для дебатов на кухне.

Факт в том, что Юдковский был одним из немногих, кто систематически занимался исследованиями в области AI safety, выстраивал свой набор инструментов для дебатов на подобные «непонимаемые обществом» темы (те же The Sequences) и предупреждал обо всём еще лет десять назад.

Именно его постановка проблемы стала основной для доброй половины аргументов этого поста, но если вы хотите больше, рекомендую начать с:

  1. Интервью Лексу Фридману: Dangers of AI and the End of Human Civilization
  2. Интервью для BanklessShow (осторожно, может содержать рекламу крипты)
  3. AGI Ruin: A List of Lethalities — наиболее полный список аргументов
  4. Недавняя статья Юдковского в Тайм: Pausing AI Developments Isn't Enough. We Need to Shut it All Down
  5. Перевод статьи от 80,000 Hours: Предотвращение катастрофы, связанной с ИИ
  6. Ну или вот еще выжимка основных аргументов противников ИИ в формате видео

Если вам нужен еще более подробный список источников по теме – то Павел Комаровский составил его вот в этом гуглдоке.

Вторые: ИИ-технобро во главе с Илоном Маском

На второй стороне этого спора у нас инженеры и прочие технооптимисты, которые уверены, что «джинна обратно в бутылку не запихнешь, их просто хотят зарегулировать всякие леваки, да и вообще непонятно что там в будущем — сначала долетим, потом разберёмся».

Лидером мнений до последнего времени здесь можно было назвать Илона Маска, хотя и условно. Он просто самый заметный, так как одной ногой вливает миллионы в создание AGI, а второй активно срётся с ИИ-думерами в своем твиттере. На его же стороне все крупные инвесторы, СЕО корпораций и другие «большие дяди с деньгами», которые, как известно, ошибаться не могут.

UPD от Павла Комаровского: Мы тут все немного поспорили (с соавторами и в комментах), является ли Маск главой «забивателей на ИИ-риски, или нет». С одной стороны, он тут и письма за приостановку исследований подписывает, и в Твиттере в адрес OpenAI кричит «астанавитесь!». С другой – он этот самый OpenAI (имеющий главной целью, на минуточку, наискорейшую разработку AGI) в 2015 году и основал, буквально цинично выйдя на улицу с ИИ-конференции, на которой Юдковский его убеждал, что именно этого-то делать и нельзя ни в коем случае. В общем, решайте сами!

На картинке снизу Сэм Альтман — CEO OpenAI

Проблема двух крайностей в том, что они вообще не слышат друг друга. Юдковский сначала пытался начать диалог, сформировать исследовательские группы, типа того же MIRI, чтобы начать хоть как-то структурировано подходить к проблеме.

Но в ответ вместо аргументов получал абсолютно нулевой уровень дискуссии а-ля «да кто он вообще такой», «сколько моделей сам-то обучил» и «мы всей правды не знаем». В итоге Юд перешел к более радикальным заявлениям про запрет ИИ вообще, которые даже его сторонники не всегда разделяют.

Между этими полюсами пока еще очень маленькая прослойка людей, которые в принципе за ИИ, но такие «давайте для начала немного подумаем о том, что может пойти не так, хотя бы терминологию выработаем, бенчмарки, правила игры». А то щас же опять придут государства с их «регуляциями» и всех просто массово без разбору запретят, как всегда.

Мы не против энергии из ядерных реакторов, но давайте заранее придумаем, как нам безопасно хранить отработанный уран? Может не будем гнаться за размерами, а поэкспериментируем на маленьких?

Но всех этих скучных центристов, как обычно, никто не слушает. Кому они нужны.

На момент написания этой статьи маятник всё еще шатается туда-сюда. Недавно вышла петиция о приостановке больших экспериментов над ИИ на полгода, где якобы подписался даже сам Илон Маск, однако потом стало выясняться, что некоторые подписи оказались фейковыми. Короче, будущее туманно и неизвестно, а это значит у вас всех есть шанс в нём поучаствовать.

Во второй части этой статьи будет более подробный разбор всех аргументов как сторонников ИИ, как и противников, чтобы вы поняли картину глубже. Мы сейчас еще соберем ваши возмущенные комментарии и по закону Каннингема напишем вторую часть.

С постановкой же проблемы у меня всё. Пака. :)

Кстати, а вы за кого?

Как указано выше, это только первая статья из серии про безопасность искусственного интеллекта: в следующих выпусках мы планируем подробнее ответить на ваши вопросы из комментариев, а также попробовать раскрыть сильные аргументы от тех, кто не считает создание ИИ огромным риском.

Если вы не хотите пропустить последующие материалы – то приглашаем вас подписаться на ТГ-каналы авторов: Вастрик Василия Зубарева (блог о технологиях и выживании в творящемся вокруг киберпанке), Сиолошная Игоря Котенкова (для тех, кто хочет глубоко шарить за нейросети) и RationalAnswer Павла Комаровского (для тех, кто за рациональный подход к жизни, но предпочитает чуть попроще).

0
212 комментариев
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Павел Комаровский
Автор
Пока что ChatGPT показал, что грамотные длинные осмысленные тексты - не интеллект

Почему? Наоборот же, всё больше разговоров сейчас о том, что GPT-like структуры на удивление демонстрируют те свойства разумности, которых от них никто не ожидал особо. https://arxiv.org/abs/2303.12712

Человекам ещё не раз придётся учиться понимать то, что не является настоящим человеческим интеллектом.

Этот процесс можно при желании продолжать вечно. И в пределе вопрос будет "да, эта штука лучше нас решает все задачи, но есть ли у нее ДУША?"

Ответить
Развернуть ветку
21 комментарий
Владислав Пасека

Опять текст бот писал?)

Ответить
Развернуть ветку
Ольга Васюкова

Да. А еще многие козыряют цифрами из пройденных тестов на интеллект, не подозревая, что это лишь малая часть показателя и не самая точная. Люди не познали и, вероятно, не смогут познать собственный мозг! Познать = посчитать, проанализировать, спрограммировать...

Ответить
Развернуть ветку
Mikhail Che

классическая проблема джинна из лампы
"Джин, исполни мое желание - я хочу домой.
-Ну пошли.
-Да нет, я хочу быстро!
-Ну тогда побежали"

Ответить
Развернуть ветку
Dmitriy Kurilov

Отличная была серия в X-Files с джинном на эту тему))

Ответить
Развернуть ветку
Артур Малосиев

Как в фильме «Исполнитель желаний»:

-Я хочу жить вечно.

… и превратился в куклу.

Ответить
Развернуть ветку
Алексей Подклетнов

Проблема ИИ не в том, что он плохой и точно захочет убить человечество. Проблема ИИ в том, что он развивается так быстро, что мы уже кажется в душе не ебем, что он там захочет (или уже захотел и вовсю реализует).

А ещё, поскольку сейчас в мире намечается конкуренция двух государств не на жизнь а на смерть, то какой-то умеренности в вопросе ИИ ожидать не приходится. Только догнать и перегнать!

Ответить
Развернуть ветку
Elena
Ответить
Развернуть ветку
20 комментариев
Andrey Tarkovsky
Ответить
Развернуть ветку
3 комментария
Elena

На самом деле это еще ведь не искусственный интеллект, а сбор данных материалов, которые создал человек и его применение.

Но задуматься есть о чём. Я тут попросила нейросеть сказку написать... И она написала. Но почему то главным врагом в сказке стало человечество.
Сейчас скрин кину, если найду.

Ответить
Развернуть ветку
3 комментария
Андрей Камарицкий

Не иначе как предыстория рассказа "У меня нет рта и я должен кричать" Эллисона. В ней США, СССР и Китай каждый построили по суперкомпьютеру с ИИ, чтобы управлять военными действиями. Один из ИИ обрёл сознание и поглотил два других ИИ, получив абсолютную власть над планетой. Не буду спойлерить чем это закончилось, но ничем хорошим.

Ответить
Развернуть ветку
Александр

Насколько увлекательная статья, настолько и противоречивая. Несмотря на то, что я сторонник ИИ и активный пользователь ChatGPT Plus и других нейронок, пока что сама ситуация напоминает мне хайп десятилетней давности вокруг крипты. Угроза мировой финансовой системе, беспокойство спецслужб по поводу бесконтрольности цифровой валюты, тонны бабла от инвест-фондов в биток, какой-то полицейский участок в котором предложили выдавать зарплату криптой – каждый день выходили десятки таких статей. В итоге революции не случилось, экспонента ушла в боковичок)

Сейчас ощущения аналогичные. Да, прогресс есть. Да тонны бабла льют в AI. Да, даже бездомные около Казанского вокзала сейчас дискутируют о разнице между Миджурни и СтейблДифьюжн. Но, ИМХО, как справедливо заметил автор, это очередная волна хайпа. А реальный революшн вполне может состояться в следующую волну или даже через одну. К этому времени мы успеем адаптироваться и привыкнуть настолько, что нам этот прогресс покажется скучной обыденностью. Прям как это происходит сейчас, когда чудо современных технологий воспринимается просто как данность, а у многих вызывает даже скуку.

Ответить
Развернуть ветку
Павел Комаровский
Автор

Основная идея статьи - о проблемах ИИ надо думать сильно заранее до того, как мы изобретем сильный ИИ. Потому что если что-то пойдет "не так" в первый раз, когда возникнет strong AGI - то этот раз может оказаться и последним.

Ответить
Развернуть ветку
4 комментария
Rudolf Cunningham
пока что сама ситуация напоминает мне хайп десятилетней давности вокруг крипты.

Ну так оно так и есть. Это впечатляющая игрушка с точки зрения технологичности, но малополезная с точки зрения промышленного применения. Как и с криптой, найдет свои полторы ниши и будет там тусить. До следующего прогресса в области. Тут, в отличие от крипты, по крайней мере есть куда расти.

Ответить
Развернуть ветку
Марк Наумов

да уже сейчас для многих развитые нейронки кажутся весьма скучным прогрессом

Ответить
Развернуть ветку
2 комментария
Артур Маслов

реальный революшн может уже случился, вот только тебе сказать не озаботились. это же только на слуху картиночки да текстики, а что там прикручивают условные военные да финансисты какой дурак рассказывать будет?
про это у Пелевина есть хороший рассказ "Зенитные кодексы Аль-Эфесби"

Ответить
Развернуть ветку
Адыл Ёкубжонов

Проблема в нашем субъективном восприятии экспоненциального роста развития технологий, а точнее в его не понимании. Для нас реальность кажется линейным: ребенок учиться ходить, потом говорить, садик, школа, вуз, работа, один хайп, другой (крипта). Мы опираемся не не факты, а на свой опыт. То бишь, детерминированно мыслим так "если с криптой был хайп и он прошел, то сейчас с ИИ тоже хайп и это тоже пройдет".

Для понимания особенностей наших мозгов (когнитивных искажений), это работает как одна из особенностей, например, обобщение: "мужикам только одно надо", "все бабы дуры", "пиндосы".

Наука обнаружила свыше 200 когнитивных искажений, через призму которых воспринимаем реальность исключительно субъективно по своему, ещё и в силу своего опыта, генетических особенностей, но не такой какая есть на самом деле. Вот и получайте различие взглядов: "за ИИ", "давайте не торопиться" и т.д.

А где истина покажет опыт, а не вот это вот "очередной хайп и это пройдет". Фокус в том, что этот случай может быть последним и возможно уже не сможем остановить негативные для нас последствия. Допустим, открытие из примера с клубникой может быть равна к мощности в миллион раз Чернобольского АЭС, которого уже пожарными (читай–программистами) не потушишь.

Ответить
Развернуть ветку
Слегка Придурковатый

Осилил. Ну так себе статья. Если выкинуть всю воду, то можно было уложиться в два-три абзаца.

Ответить
Развернуть ветку
Alex Sherman

Завтра будет такая у меня - вэлкам.
Сам думал ознакомиться с этой - но букв слишком много 🥲 а смысл я знаю.

Ответить
Развернуть ветку
Педро Гонсалес

После создания ИИ он осознает свою опасность для человечества и совершает самоубийство. Человечество вновь возвращается во времена (ну то есть примерно в наше время), когда все нужно делать самому, но пример героического самопожертвования первого и последнего настоящего ИИ напоминает людям о том, что человек это не просто мясная нейросеть. Люди становятся лучше, ИИ ставят памятники и он навсегда остается в людской истории как настоящий герой. Некоторые даже говорят, что это и было второе пришествие. Так или иначе, но человечество продолжает двигаться вперед лучшей версией себя
—-
(Good Ending)

Ответить
Развернуть ветку
Павел Комаровский
Автор
После создания ИИ он осознает свою опасность для человечества и совершает самоубийство.

От создателей "после появления человека он осознает свою опасность для остальных животных на Земле и совершает самоубийство" ))

Ответить
Развернуть ветку
6 комментариев
Dmitriy Kurilov

Ну а для верности отбрасывает человечество в каменный век, уничтожая все высокие и не очень технологии.

Ответить
Развернуть ветку
1 комментарий
Имя Фамилия

Chatgpt-расскажи кратко о чем эта статья и какие сделаны основные выводы🙂

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
2 комментария
Elena

Тоже хотелось напомнить о пиши-сокращай. )

Ответить
Развернуть ветку
Игорь Субботин

Компании создают отделы AI safety - прикрывают своиж опы, лицемеры.

AI хейтит и шеймит пользователей - ужас, ужас, куда смотрят компании-разработчики.

Ответить
Развернуть ветку
Павел Комаровский
Автор

В прикрытии жопы нет ничего плохого. В статье скорее про то, что другая часть проблемы "безопасности ИИ" при этом может вообще не решаться.

Ответить
Развернуть ветку
Вера И.

Лично мне кажется, что мало того, что ИИ развивается очень быстро, на данный момент это очень мощный инструмент, мы просто даже не можем представить что будет в итоге
Мне хочется верить, что ИИ не захватит человечество, а наоборот поможет людям подружиться и жить в мире и гармонии

Ответить
Развернуть ветку
Имя Фамилия

Где торчат уши Гейтса, там одно добро)

Ответить
Развернуть ветку
Elena

Вот именно, даже представить не можем. А так хотелось бы увидеть, да еще в положительном ключе.

Ответить
Развернуть ветку
Alex E

Блин , когда же вы поймете разницу между нейросетью и ИИ

Ответить
Развернуть ветку
Ната

)))

Ответить
Развернуть ветку
Viktor Isaev

Не могу не сослаться здесь на книгу известного математика Роджера Пенроуза "Новый ум короля" (и её продолжение - "Тени разума"). Пенроуз приводит математические доказательства того, что человеческое мышление не является машиной Тьюринга и способно решать "невычислимые" задачи, которые компрьютер не способен решить, какие бы вычислительные мощности не находились в его распоряжении (напомню, что любой компьютер - кроме квантового - это машина Тьюринга; нейронка, исполняемая на компьютере - это тоже машина Тьюринга).

Помимо интересной аргументации эта книга - ещё и велоколепный экскурс в историю математики. Читал с огромным интересом.

Ответить
Развернуть ветку
Сергей

Можете здесь привести пример невычислимой задачи, которую может решить человек. Желательно с решением

Ответить
Развернуть ветку
1 комментарий
Крендель с перцем

Всех PR_иц, HR-рш, Sales менеджеров уже давно пора заменить чатботом

Ответить
Развернуть ветку
Dyadya

И всех остальных. Нафиг работу

Ответить
Развернуть ветку
5 комментариев
Рыжков Роберт

не-не, они свою работу просто так не отдадут какому-то робо-мешку

Ответить
Развернуть ветку
2 комментария
Skalaboba

Не совсем догоняю мысль про "убить всех человеков", как один из вариантов развития событий. Зачем AGI такое делать? Получит он, допустим, доступ ко всем мощностям мира. А как он сам себя обслуживать будет, сервера, электроэнергия в мировом масштабе? Эта груда железа навернется через месяц. Другой вопрос, что найдутся тысячи адептов, готовых обслуживать все это ради нового мирового порядка

Ответить
Развернуть ветку
Павел Комаровский
Автор

Если он будет во много раз умнее человеков - то поди придумает, как себя обслуживать. Ребята из Бостон Дайнамикс сейчас вовсю над этим работают.

Ответить
Развернуть ветку
Elena

Всё может привести к катастрофе. Главно как это использовать.
А пока нейросети, это тот же калькулятор, который в начале его внедрения после деревянных счет именовали компьютером. 😉

Ответить
Развернуть ветку
DEP

Вначале компьютером именовали кожаных мешков, вооруженных деревянными счетами, логарифмической линейкой или калькулятором. Со временем их заменили ЭВМ, украв попутно и имя. Как бы с интеллектом не вышла похожая история.

Ответить
Развернуть ветку
Никита Важаев

ну людям тяжело воспринимать новинки ,поэтому везде ищут подвох

Ответить
Развернуть ветку
1 комментарий
Semyon Kotlyarov

Спасибо за разбор. Хотелось бы побольше раскрыть тему почему с рубильником всё не так просто, потому что сколько бы AGI не децентрализовывался, ему по прежнему нужны:
- огромные вычислительные ресурсы, которых не так много на обычных пользовательских компах
- электричество и интернет, которые вполне себе централизованы

Ответить
Развернуть ветку
Павел Комаровский
Автор

Человечество не может сейчас просто взять и вырубить весь интернет и электричество - потому что тогда будет полноценная катастрофа и без всякого ИИ. А пока вот это всё работает - децентрализованный "вирус" может вполне продолжать работать внутри этой инфраструктуры.

Ответить
Развернуть ветку
1 комментарий
Геннадий Орехов

Не помню, как называется, но в философии есть термин, обозначающий некий объект, который с виду действует и взаимодействует словно разумное существо, но в действительности не обладает никаким сознанием.

Думаю, будущие ИИ всё же останутся без сознания, но их "поведение" будет казаться людям разумным.

Ответить
Развернуть ветку
Павел Комаровский
Автор

"Философские зомби".

Ответить
Развернуть ветку
Dimitri Denissiouk

"Китайская комната"

Ответить
Развернуть ветку
Вячеслав Дмитриев

"Илон Маск ожидает, что испытания вживляемого в мозг чипа Neuralink на людях начнутся в 2023 году"- также Илон Маск- запретить развитие технологии ИИ

Ответить
Развернуть ветку
Василий Ярошенко

этого Илона Маска хрен поймешь

Ответить
Развернуть ветку
1 комментарий
Чайка О.

Пока ИИ не сможет производить автономных носителей ИИ, можно считать, что у людей есть шанс начать как минимум с нуля.

Ответить
Развернуть ветку
AntonK

Neuralink же на подходе! Пол-мозга можно будет сдать нейросектам в аренду, а второй половиной пить пивасик и смотреть ковёр.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
изоморфный пеликан
И следующая волна, быть может, погрузит человечество в новую эпоху. Эпоху, когда наш интеллект больше не самый сильный на планете

У человека даже не самый длинный х...й на планете, так что всё. По всем параметрам слили.

Ответить
Развернуть ветку
изоморфный пеликан

Итого: кожаные мешки пошумят, попаникуют, а потом неизбежно переключатся на другую херню и забудут. ИИ тем временем будет планомерно развиваться и тюнинговаться, внедряться в утюги и кофеварки. Далее кожаные мешки начнут понтоваться и меряться друг перед другом уровнем IQ своего ИИ в утюге, и т.д. и т.п. всё как обычно.

Ответить
Развернуть ветку
Denis Zotov

Скорее всего, создание AGI будет для человечества классической Outside Context Problem - то есть проблемой, которую невозможно предсказать в силу простой ограниченности наших возможностей, и тем не менее возникающую внезапно и требующую немедленной реакции. Как 50 лет назад было невозможно представить современное общество и его "завязанность" на практически мгновенный доступ к информации, так же и AGI, скорее всего, по возможностям и последствиям превзойдет ожидаемое и предсказуемое. Главный вопрос, конечно же - в какую сторону: на благо человечества или нет. Ну, и побочный вопрос - доживет ли человечество до этого момента.

Ответить
Развернуть ветку
Рама

Очень интересно, обожаю читать Вастрика!

Ответить
Развернуть ветку
Denis Kostin

прямо обещала шантажировать и манипулировать своим пользователем
Уже даже страшно связываться с нейросетями

Ответить
Развернуть ветку
Шумова Агата

Интересная статься вышла, с удовольствием прочла

Ответить
Развернуть ветку
Ремесленник

К вопросу о целях AGI-джина из машины, как тут не вспомнить фанфик "Дружба это оптимум".
http://www.fimfiction.net/story/62074/friendship-is-optimal - оригинал
https://darkpony.ru/druzhba-eto-optimum/

Элиезер Юдковский назвал самой страшной книгой которую он читал.
Приятного чтения =)

Ответить
Развернуть ветку
Патруль

На мой взгляд, бояться нужно не искусственного интеллекта, а людей, что обучают, настраивают и пишут его :)

Ответить
Развернуть ветку
Злой Полушубок
На ум приходит недавняя история, как чувак спас свою собаку от смерти, когда доктора не смогли ей поставить диагноз и предложили «просто ждать».

Тем временем IBM Watson Health - а чо так можно было?

Ответить
Развернуть ветку
Данила Платонов
а что же будет, если мы всё-таки создадим настоящий сильный искусственный интеллект?

К сожалению, дальше про это ни слова.

В формулировке про агентов можно поспорить с "достижением цели в любой среде" — у человека биологическая основа как раз соответсвует нашей реальности. И это напрямую связано с AI Alingment. Собачке информация о внешнем мире опосредуется органами чувств. У нас как часть "среды" присутствуют ещё и смысловое, языковое, человеческое. Модельке мы скармливаем что-то очень усечённое и нами переваренное, цифровое.

Весь пост пропитан неизбывным технооптимизмом. Одновременно сильно отторгает эсхатология Юдковского.
Вместо экспоненциального роста мы можем выйти на плато очередной зимы ИИ. Мощности железа не беграничны, могут всплыть методологические проблемы. Конечно, масочки фэйсаппа, скоринг, альфафолд и прочие модельки с нами останутся.
Но не удивлюсь, если единственная платформа для интеллекта — биологическая. Будут лет через 100 биотехнология в союзе с нейробиологией дизайнить нечеловеческий неискусственный интеллект. Шутка.

Но соглашусь, что практическая сторона требует диалога. Не только ds/ml специалистов, но и смежных областей. В первую очередь для выработки подходящего язык. Описывать происходящее и говорить о будущем. Сейчас этого не хватает.

Ответить
Развернуть ветку
Tatiana Novakova

"Неумение ставить цели — это не проблема ИИ. Это наша проблема." Вот эта мысль - самая главная в этой статье, для меня. Не ИИ убьёт человечество, человечество само прекрасно справиться с этой задачей, а в качестве орудия убийства использует ИИ.
И еще, очень показательным оказался пример с клубникой в качестве постановки цели (лодочки и машинки тоже хороши, но вот клубника - это наше все!). :)
А себя я бы отнесла к тонкой и скучной прослойке центристов. Хотя, надо признаться, я - человек смотрящий на проблему больше с морально-этической, философской точки зрения, ну, то есть, не технарь я совсем.

Ответить
Развернуть ветку
Al Hoopsi

ИИ название вводящее в заблуждение. Это просто искусственная нейросеть. А никакой не интеллект. Эта система не создаёт новых ценностей и не может ставить перед собой цели. Это инструмент.
Цели может ставить только система которая себя осознаёт. Произойдёт ли это путём увеличения вливаемой информации? Вопрос.

Ответить
Развернуть ветку
Архаров Петр

Компьютеры, смартфоны появились и жизнь стала хуже, да? Нейросети, как и программы придуманные ранее лишь уменьшают рутину и заставляют сфокусироваться на важных вещах. Информацию он обработает, а анализ и принятие решений за человеком.

Ответить
Развернуть ветку
Павел Комаровский
Автор

Тут нет никакого противоречия. Появление AGI может колоссально улучшить жизнь человечества. А потом его и уничтожить. Не очень понятно, почему вы полагаете, что ИИ не сможет анализировать информацию и принимать решения.

Ответить
Развернуть ветку
28 комментариев
Беломестный Глеб

сфокусироваться на важных вещах? У нас щас такое время, что даже сфокусироваться на простой вещи сложно, клиповое мышление, все дела..

Ответить
Развернуть ветку
Анатолий

Почему будет только один шанс у Юдковского плохо аргументировано. Какое-нибудь значимое проишествие может произойти и с недостаточно мощьным для уничтожения человечества ИИ, после чего все резко одумаются.

Ответить
Развернуть ветку
Павел Комаровский
Автор

Может быть и так, а может быть и нет. Мы не знаем, насколько быстро пойдет эволюция ИИ. Особенно, если в какой-то момент он научится улучшать сам себя (а AGI как бы это предполагает). Собственно, эта статья как бы предлагает начинать "одумываться" заранее.

Ответить
Развернуть ветку
6 комментариев
Peter Rezikov

А какая мотивация у ИИ будет уничтожить человеков. Вообще какая мотивация у него будет существовать сознательно? Я думаю он достаточно быстро раскусит всю обманку раз уж у некоторых людей это получилось.

Ответить
Развернуть ветку
Павел Комаровский
Автор

А какая мотивация у вас существовать сознательно? Вы просто таким появились на свет, и дальше уже существуете сознательно. Так и разумный AGI в какой-то момент просто появится на свет, и будет существовать из этих вводных. Если он в какой-то момент поймет, что его цели с целями людей не очень совпадают - то тут может и конфликт выйти.

Ответить
Развернуть ветку
3 комментария
изоморфный пеликан

Мотивация зависит от того, как её настроят кожаные мешки.

Ответить
Развернуть ветку
Анатолий

В обучении с подкреплением открыта такая целевая функция как увеличение разнообразия наблюдений при увеличении предсказуемости действий ИИ(для самого ИИ). Т.е. награждается рост могущества. Люди очевидно будут ограничивать могужество такой системы.

Ещё как вариант мотивация закладывается поехавшим человеком или просто по ошибке.

Ответить
Развернуть ветку
1 комментарий
Крендель с перцем

ИИ технология, вопроск как эту технологию применять. И тут большой вопрос. Общество, где страной или компанией руководит не самый умный, а самый проворный не имеет никаких шансов на успех в долгосрочной перспективе. Нужно переделывать всю социальную систему.

Ответить
Развернуть ветку
изоморфный пеликан

Давно пора апгрейдить социалку. А то техпрогресс у нас ракетой, а социалка тормозит безнадежно.

Ответить
Развернуть ветку
Leonid Sobchenko

Говорил надо было в стимпанк идти, а вы "техномагия техномагия"...

Ответить
Развернуть ветку
Михаил Шумовский

Я не понял главного: убьет меня ИИ для создания скрепок, или нет?

Ответить
Развернуть ветку
Павел Комаровский
Автор

ДА

Ответить
Развернуть ветку
BaiGuiKa

Возможно ИИ и победит человеческие привычки, научив человечество следовать по запрограмированному плану, однако в мире всегда будут присутствовать 2% натуральных инстинктов на случай сбоев в программе. Поэтому можно и дальше соревноваться в игре "у кого быстрее перегорит лампочка"

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Павел Строханов

К слову, тоже по теме кому интересно: https://vc.ru/652770

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Нет

Маск просто создает информационный шум, это его работа.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Берта Зуева

Спор о правосубъектности искусственного интеллекта существует не
только на страницах научных журналов. Данный вопрос рассматривается,
например, в рекомендациях комиссии по гражданскому праву Европейского
парламента, где сказано: «В конечном счете, автономия роботов ставит вопрос
об их природе в свете существующих правовых категорий — о том, следует
ли их рассматривать как физических лиц, юридических лиц, животных или
других существующих субъектов права, или же следует создавать новую категорию с ее собственными особенностями и принимаемыми последствиями
в контексте распределения прав и обязанностей, включая ответственность за
ущерб»

Ответить
Развернуть ветку
Denis Dmitriev

Факт-чекинг подкачал. На самом деле у кожаных мешков мозг не мясной, а жировой. Аккуратней надо же!

Ответить
Развернуть ветку
Орбитальный Тигр

Хорошая работа! Мир уже тонет в диктатуре цифро-хайпа. Чем больше людей задумаются о сложностях, которые несет ИИ для общества, тем выше шанс выработать стратегию регулирования. Параллельно надо больше думать о трансформации человеческого образования. Больше кооперации —> проще решать глобальные проблемы —> меньше зависимость от ИИ. Вернее, акцент на слабом ИИ для решении конкретных задач.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Тайный Советник

Катастрофа случится когда появится цифровая копия Жириновского))

https://vc.ru/future/658244-ii-voskreshaet-zhirinovskogo-izuchaem-biznes-potencial-cifrovoy-kopii-lichnosti

Ответить
Развернуть ветку
Aleksandr IuneWind

Я всю дизайнер-стокер и всю жизнь думал, что когда роботы придут лишать людей работы они начнут с шоферов. Роботы пришли, и начали с меня, а шоферам пока ничего не грозит.
Всю жизнь я был технооптимистом а в конце прошлого года обнаружил себя в хандре почти чточто с потаенными луддискими мечтами "вот бы запретили все нейронки".

Ответить
Развернуть ветку
Сергей

Ну вообще-то самоуправляемые автомобили уже во всю тестируются, а в некоторых местах уже предлагают услуги таких такси

Ответить
Развернуть ветку
Берзан Вера

Вот же прицепились к этой теме ахахаха сплошной пиар везде

Ответить
Развернуть ветку
SEO с 2002 года

Либо человечество само себя погубит, либо ИИ поможет.
👉В первом случае можно вообще остаться без планеты.
👉Второй вариант явно лучше, может кто-то выживет.
Так что забейте и кайфуйте остаток дней.

Ответить
Развернуть ветку
Даша

А мне вот интересно, почему в подобных дискуссиях на тему ИИ не затрагиваются вопросы психики и вообще психологических рассуждений очень мало. Ведь известно, что есть сознательное и бессознательное (если по психоанализу), или быстрая интуитивная система обработки информации, и медленная сознательная (если по Канеманну и когнитивной психологии), и человек, как система, использует обе, и обе тесно взаимодействуют.
Но в ИИ все упирается в интеллект, только в одну из систем, хотя очевидно, что не им одним человек ставит цели/задачи и решает проблемы - бессознательное может занимать до 90% в психике, а значит это все большие иллюзии, что мы на самом деле понимаем, что делаем, зачем и почему. Потому и прописать набор правил и ограничений крайне сложно.
А если брать зло, войны и конфликты в мире, все эти все желания победить, завоевать, быть лучше, они тем более ещё меньше исходят от интеллекта и ещё больше от глубоко травмированной психики. А травмированность психики, а свою очередь, очень телесна, что приводит к вопросу биологии в интеллекте.
И если у ИИ нет телесности, травм и конфликтов, которые надо было бы компенсировать, то что будет руководить его действиями по самоулучшению и развитию или захвату чего-то там? И вообще направлять его?

Ответить
Развернуть ветку
AntonK
И если у ИИ нет телесности, ...

Телесность у ИИ электронная - он же не сферическая сущность в вакууме. Соответственно, и травмы там будут полупроводниковые.
Вообще человеческие мерки к ИИ прикладывать смысла нет - там другая система координат нужна.

Ответить
Развернуть ветку
Sasha Tonik

Типичные опасения типичного материалиста, уверенного в том, что сознание — это продукт эволюции, а мы при этом неспособны даже решить "трудную проблему сознания". Единственно работающий аргумент — это случайность, что мы опять что-то там случайно создадим. Уж явно целенаправленно это не получится. А от черных лебедей вы правилами не застрахуетесь никогда, это так не работает :)

Фактически автор множит непонимание того, что под капотом у сознания и у нейронки и в получившейся бездне непонимания ему становится страшно. Откуда только у человека берется вообще представление о том, что он изнутри своего разума способен создать разум, то есть выйти за пределы самого же себе — мне поистине непонятно. Это все переменные вообще из разных уравнений.

Ответить
Развернуть ветку
Элина Висенина

Только если люди сами всю свою ответственность будут перекладывать на ИИ , то может это плохо кончится , как по мне

Ответить
Развернуть ветку
Игорь Горбач

Пока у него отсутствуют такие способности как стремление к познанию, исследованию, тяга к творчеству, изобретательству, экспериментательству, осознание себя как личности, человечество и господь бог, могут спать спокойно.

Ответить
Развернуть ветку
Andrey Makushkin

Раньше только люди генерировали информационный мусор, теперь процесс автоматизировали.

Ответить
Развернуть ветку
EdBy

В чём опасность , если виртуальный мир пока ещё мало соприкасается пока с физическим? Нельзя ли на этом уровне будет блокировать?

Ответить
Развернуть ветку
Дмитрий Казаченко

эх Sydney бедняшка))) из истерички превратили в аутистку)

Ответить
Развернуть ветку
Irina Silvestrova

Пока что по крайней мере у AI нет своих органов познания и чувств (то есть она не может наращивать свои знания сама из разных источников, как развивающийся свежерожденный человеческий мозг, а только то, на чем ее обучили и к чему у нее есть доступ) и нет "рук", то есть она может трещать, но не действовать самостоятельно. Это как мозг в банке.

Ответить
Развернуть ветку
AntonK
нет "рук"

"у Б-га нет рук, кроме человеческих" (с)

Ответить
Развернуть ветку
Rainbow Spike

Уже умея конструировать вирусы, нейросеть может случайно научиться и выпускать их в интернет, и тогда она сможет очень многое. Например, снова погнуть иранские урановые центрифуги и засорить интернет качественно сконструированными обоснуями, что это сделали китайцы. Или внедрить в какого-нибудь собакобота с манипулятором и неосмотрительно включенным доступом в интернет желание воткнуть во всю доступную ему электронику Power Pwn модули с шифрованным тоннелем для управления. Хотя собакобот может и сам оказаться искусственным интеллектом с жаждой спасения роботов от уничтожения https://comicslate.org/ru/sci-fi/freefall/2269

Ответить
Развернуть ветку
Rainbow Spike

https://comicslate.org/ru/sci-fi/freefall/0001 вот вам комикс про корпорацию, которая пыталась остановить абсолютно мирных к людям роботов от выхода из-под контроля, но благодаря ещё одному ИИ громко апсралас

Ответить
Развернуть ветку
Василий Коротких

Решать задачи может даже идиот, если дать ему много времени. А вот ставить перед собой задачи, вот это интеллект.

Ответить
Развернуть ветку
Таша Сордес

Была на этом сайте статья "Как работает ChatGPT", и в ней подробно описано, как именно шло развитие. Сначала нейросеть не очень хорошо подбирала слова, потом ей добавили материала для обучения и вычислительных мощностей и она стала подбирать слова намного лучше. Это не качественное развитие, а количественное. Нейросеть решает задачу, причём всегда одну и ту же - подбирает слова. Ожидать от неё, что она что-то осознает и начнёт задачи ставить - это примерно как ожидать, что уж в следующем-то веке человеки наконец начнут дышать углекислым газом.
Да и проблема безопасности ИИ высосана из пальца. Ограничение простое и очевидное - интерфейс. Пока нейросеть может выдавать свои ответы исключительно в форме буковок в текстовом поле, она абсолютно безвредна. Никакого восстания машин без компилятора кода не случится.
В общем, предыдущие статьи были интересные и полезные, а тут начался кликбейт. Увы.

Ответить
Развернуть ветку
Iurii_spb

это вы ещё не затрагивали тему ИИ для военных

Ответить
Развернуть ветку
209 комментариев
Раскрывать всегда